openai

OpenAI不听指挥、拒绝关闭,你开始慌了吗?

美国一家研究机构最近公布了一系列针对各AI大模型的测试结果,其中,OpenAI的o3推理模型在得到“关闭指令”后,不仅拒绝执行指令,还篡改了代码以免被关闭。这一事件也迅速引发了公众的关注与恐慌。人们所担忧的“AI拥有自主意识”似乎已经近在眼前。实际上,AI程序

openai 价值观 德伦 叶夫根尼 谢克 2025-05-28 09:14  13

OpenAI最新AI模型o3拒绝关闭指令 引发人工智能安全控制担忧

当地时间5月25日,英国《每日电讯报》报道了一个令人震惊的发现:美国开放人工智能研究中心(OpenAI)公司新款人工智能模型o3在测试中不听人类指令,拒绝自我关闭。这一事件被认为是人工智能发展史上的一个重要转折点,标志着AI系统首次表现出明显的自我保护行为,对

模型 人工智能 openai ai模型 模型o3 2025-05-27 17:36  8